Световни новини без цензура!
Вътрешните разногласия остават в OpenAI след опита за преврат през ноември
Снимка: ft.com
Financial Times | 2024-05-30 | 06:15:52

Вътрешните разногласия остават в OpenAI след опита за преврат през ноември

OpenAI се бори да овладее вътрешните спорове относно своето лидерство и безопасност, тъй като разногласията, които доведоха до миналогодишния опит за преврат срещу главния изпълнителен директор Сам Алтман, се изливат обратно в публичното пространство.

Шест месеца след неуспешното отстраняване на Алтман, поредица от високопоставени оставки сочат продължаващи разриви в OpenAI между тези, които искат да развиват бързо ИИ, и тези, които биха предпочели по-предпазлив подход, според настоящите и бивши служители.

Хелън Тонер, един от бившите членове на борда на OpenAI, които се опитаха да отстранят Алтман през ноември, говори публично за първи път тази седмица, като каза, че той е заблуждавал борда „многократно“ относно неговите процеси за безопасност .

„В продължение на години Сам наистина затрудняваше борда да върши [своята] работа, като укриваше информация, представяше погрешно нещата, които се случват в компанията, в някои случаи директно лъжеше борда,“ каза тя в подкаста TED AI Show.

Най-видното от няколкото напускания през последните няколко седмици беше това на съоснователя на OpenAI Иля Суцкевер. Човек, запознат с оставката му, го описва като уловен в „противоречивите обещания“ на Алтман преди миналогодишното разстройване на ръководството.

През ноември директорите на OpenAI — които по това време включваха Тонер и Сутскевер — избутаха Алтман като главен изпълнителен директор с внезапен ход, който шокира инвеститорите и персонала. Той се върна дни по-късно под нов борд, без Тонер и Суцкевер.

„Ние приемаме ролята си невероятно сериозно като борд на организация с нестопанска цел“, каза Тонер в интервю за FT. Решението да се уволни Алтман „отне изключително много време и размисъл“, добави тя.

Суцкевер каза при напускането си, че е „уверен“, че OpenAI ще изгради изкуствен общ интелект – ИИ, който е толкова умен, колкото хората – „който е едновременно безопасен и полезен“ под настоящото му ръководство, включително Алтман.

Ноемврийската афера обаче изглежда не е разрешила основните напрежения вътре в OpenAI, които допринесоха за отстраняването на Алтман.

Друго скорошно напускане, Ян Лейке, който ръководи усилията на OpenAI за управление и контрол на свръхмощни AI инструменти и работи в тясно сътрудничество със Sutskever, обяви оставката си този месец. Той каза, че различията му с ръководството на компанията са „достигнали точка на пречупване“, тъй като „културата и процесите на безопасност са отстъпили на заден план пред лъскавите продукти“. Сега той се присъедини към конкурента на OpenAI Anthropic.

Сътресенията в OpenAI – които отново изплуваха на повърхността, въпреки че огромното мнозинство от служителите призовават за възстановяването на Алтман като главен изпълнителен директор през ноември – идват, когато компанията се подготвя да пусне ново поколение на своя AI софтуер. Той също така обсъжда набирането на свеж капитал за финансиране на разширяването си, казаха хора, запознати с преговорите.

Насочването на OpenAI на Altman към доставка на продукти, вместо да публикува изследвания, доведе до неговия пробив в чатбота ChatGPT и даде тласък на огромна вълна от инвестиции в AI в Силиконовата долина. След осигуряване на над 13 милиарда долара подкрепа от Microsoft, приходите на OpenAI са на път да надхвърлят 2 милиарда долара тази година.

Голямото четене Надпреварата за захранван с AI личен асистент

И все пак този фокус върху комерсиализацията влезе в конфликт с тези в компанията, които биха предпочели да дадат приоритет на безопасността, опасявайки се, че OpenAI може да се втурне в създаването на „суперинтелигентност“, която не може правилно да контролира.

Гретхен Крюгер, изследовател на политиката за ИИ, която също напусна компанията този месец, изброи няколко опасения за това как OpenAI борави с технология, която може да има далечни последици за бизнеса и обществеността.

„Ние [от OpenAI] трябва да направим повече, за да подобрим основополагащи неща“, каза тя в публикация на X, „като процеси на вземане на решения; отчетност; прозрачност; документация; прилагане на политиката; грижата, с която използваме собствената си технология; и смекчаване на въздействието върху неравенството, правата и околната среда.“ 

Алтман, в отговор на напускането на Лейке, каза, че неговият бивш служител е „прав, имаме още много работа; ние се ангажираме да го направим”. Тази седмица OpenAI обяви нов комитет за безопасност и сигурност, който да наблюдава своите системи за изкуствен интелект. Алтман ще участва в комисията заедно с други членове на борда. 

„[Дори] с най-добри намерения, без външен надзор, този вид саморегулиране ще се окаже неприложимо, особено под натиска на огромни стимули за печалба“, написа Тонер заедно с Таша Макколи, която беше също в борда на OpenAI до ноември 2023 г., в статия за списание The Economist, публикувана дни преди OpenAI да обяви новия си комитет.

В отговор на коментарите на Тонер, Брет Тейлър, председател на OpenAI, каза, че бордът е работил с външна правна кантора, за да прегледа събитията от миналия ноември, като заключава, че „решението на предишния борд не се основава на опасения относно безопасността на продукта или сигурността, темпото на развитие, финансите на OpenAI или неговите изявления към инвеститори, клиенти или бизнес партньори”.

„Нашият фокус остава да продължим напред и да следваме мисията на OpenAI да гарантираме, че AGI е от полза за цялото човечество“, каза той.

Човек, запознат с компанията, каза, че след шума през ноември най-големият поддръжник на OpenAI, Microsoft, е оказал по-голям натиск върху нея да даде приоритет на търговските продукти. Това засили напрежението с онези, които биха предпочели да се съсредоточат върху научните изследвания.

Мнозина в компанията все още искаха да се съсредоточат върху дългосрочната си цел AGI, но вътрешните разделения и неясна стратегия от ръководството на OpenAI демотивираха персонала, каза този човек.

„Горди сме да създаваме и пускаме модели, които са водещи в индустрията както по възможности, така и по отношение на безопасността“, казаха от OpenAI. „Ние работим усилено, за да поддържаме този баланс и смятаме, че е от решаващо значение да имаме стабилен дебат с напредването на технологията.“

Въпреки проверката, предизвикана от скорошните вътрешни размирици, OpenAI продължава да изгражда по-напреднали системи. Компанията обяви тази седмица, че наскоро е започнала да обучава наследника на GPT-4, големия AI модел, който захранва ChatGPT.

Ана Маканджу, вицепрезидент по глобалните въпроси на OpenAI, каза, че политиците са се обърнали към нейния екип относно скорошните напускания, за да разберат дали компанията е „сериозна“ за безопасността.

Тя каза, че безопасността е „нещо, което е отговорност на много екипи в OpenAI“.

„Много вероятно [AI] ще бъде още по-трансформиращ в бъдеще“, каза тя. „Разбира се, ще има много разногласия относно това кой точно е правилният подход за подготовка на обществото [и] как да го регулираме.“

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!